Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
25.10.2010, Petr Štefek, recenze
V další části na téma nových Radeonů HD 6800 se podíváme na v současnosti nejvýkonnější model pod označením HD 6870. Jak si nově příchozí vede ve srovnání s GeForce GTX 470 a GeForce GTX 460?
lordek | 11.4.201114:41
ahoj rozhoduji se mezi trema grafikama mezi RADEON HD67901GB ci RADEON HD6850 nebo tento modelHD6870co si myslite ze je nejvyhodnejsi koupit??radeon 6790 se da sehnat kolem tisic ale 6870 uz treba pres 4...je velkej rozdil mezi 6790 a 6870?nebo nejlepsi moznost je koupit 6850? prosim poradte mi nekdo a jeste neco vsechny modely jsou v 1GB verzich..
Diky za nejake odpovedi.
Odpovědět0  0
lordek | 11.4.201114:50
a nebo jit do modelu 6950?
Odpovědět0  0
Myscha (3) | 11.4.201115:07
6950 je zase o chlup vykonnejsi, zalezi, jak vychazi cenove k te 6870.
Odpovědět0  0
Myscha (3) | 11.4.201115:04
Tak nejvykonejsi je 6870, takze jestli na ni mas, jdi do ni. Mam ji doma a spokojenost, akorat muj kousek nejde moc pretaktovat. 6790 asi nebude zadny zazrak.
Odpovědět0  0
lordek | 11.4.201115:48
no ta 6950 vychazi uz pres 5 tisic nevim jestli se to vyplati jit do takove je velkej rozdil mezi 6870 a 6950?
Odpovědět0  0
jlo001 (2) | 29.10.201013:13
Pán redaktor,
porovnal som Vaše dve recenzie ­(HD6850...lepší než očekávání­/6870...*nejlepší volba pro herní počítač?­) a v prípade Radeon­-u HD6850 sa výsledky dosť výrazne líšia!
Testovali ste na def. frekvenciách or OC?­(nepíšete­)
napr. 1680x1050+4AA+16AF­(fps­) BF­-BC2=47­/*52, ME2=58­/*67, Metro 2033=35­/*39, STALKER CoP=50­/*55
Thx

BTW: bolo by dobré písať do špecifikácií frekvencie jedotlivých kariet, aby nedochádzalo k omylom.
Odpovědět0  0
Petr Štefek (1098) | 29.10.201016:54
Ano, máte pravdu, protože v předchozím je použíta špatná karta s jiným počtem stream procesorů a mavíc pouze 32­-bitový systém kvůli nestability ovladačů. Ale je třebna to doplnit do recenze. Dík
Odpovědět0  0
palo1129 (11) | 26.10.201019:44
A kto jediny zato moze? Koho mozeme jednoznacne za tento trend sucasnych cien GPU pochvalit a sa mu za to aj patricne podakovat? Asi to bude kazdemu jasne, ze si to plne zasluzia grafiky od AMD uz vydanim prvych modelov DX11 grafik. Neviem si celkom predstavit, kde by sa pohybovali ceny fermi grafik keby boli tak uspesne a dosahovali by v testoch tie vysledky, akymi boli na zaciatku PR manazermi proklamovane... Len dobre vlastnosti hd 5770,5850 a ich efektivne 40nm cipy samozrejme aj s ich cenou mohli znamenat dnes. kupu takej 460ky za velmi vyhodny nakup. Nehovoriac otom, co urobilo vydanie najnovsich hd6xxx GK s cenou takej gtx470, uz ani neviem kolko pred jej vypustenym stala co nebolo tak davno, ale ten cenovy prepad musi byt az rekordny! Vdaka skvelej­-agresivnej politike AMD mozeme mat celkom radostne vianoce :­). je to azda prvy krat co sa NVdia grafiky stavaju casto vitazmi pomeru cena­/vykon, ta spolocnost ktora v case jej monopolu predavala svoje aceleratory aj za viac ako 20­-25 litrov.
Odpovědět0  0
kaocko | 26.10.201017:45
Tak se podarilo... Vcera jsem to nejak moc nemel cas resit, tak az ted po praci jsem se 15 min hrabal v nastaveni monitoru. Nejspis se jedna o propastny rozdil vystupu mezi 3870 a 6870. LCD je stejne stare jako 3870, takze jsem jeho nastaveni upravoval pro tuto kartu. Panel ma funkci Focus, jednoducha uprava stacila k dokonale ostremu obrazu.

Sorry za trosku zbytecny post... =)
Odpovědět0  0
palo1129 (11) | 26.10.201019:15
absolutne nie zbytocny, tymto prispevkom si pomohol nejednemu, takze nebude hladat riesenie v uplnom preinstalovani OS.
Odpovědět0  0
Jandaskunk (89) | 1.11.201011:46
Jo, pokud to máš připojený pomocí D­-sub, tak se toto automatické ­"zaostření­" obrazu musí použít, překonvertování digitálního obrazu do analogového a zase zpět není zrovna to právé ořechové hold...
Odpovědět0  0
kaocko | 26.10.201014:29
Zdravim, koupil jsem HD6870 a oproti memu staremu Radeonu 3870, na kterem jsem bezel asi 4 roky, doslo k rapidnimu zhorseni kvality zobrazeni. Kdyby se jednalo pouze o 3D mod, nemel bych s tim asi moc velkou potiz, ale bohuzel se to tyka i 2D. Windowsové fonty jsou znatelne rozmazane a nedela to oproti te stare karte zrovna pekny dojem.

Sestava je stejna, pouze GK je jina. Ostrost jsem se snazil poresit v nastaveni monitoru, ale vyrazneho zlepseni se mi dosahnout nepodarilo.

Nema nekdo podobnou zkusenost? Popr nevi nekdo jak tohle vyresit? Jine drivery ­/ tipy ?

Diky
Odpovědět0  0
Myschak | 26.10.201014:37
Vim, ze je to asi blby dotaz, ale pouzivas nativni rozliseni sveho LCD?
Odpovědět0  0
kaocko | 26.10.201014:56
Vim, ze to muze znit blbe, ale je to 22­" LCD s nativnim rozlisenim 1680*1050 a v 1600*1200 ten obraz vypada mozna i lepe...
Odpovědět0  0
Myschak | 26.10.201015:08
Tak to je zvlastni. Ted jsi teda nejsem vedom toho, ze LCD s nejakym nativnim rozliseni umi i rozliseni vyssi, myslel sjem, ze to jde jen smerem dolu, ale mozna se pletu. Kazdopadne pokud to tak opravdu je a pouzivas nativni rozliseni zkusil bych jeste zkontrolovat zapojeni kabelu, pripadne nejake ruseni, ale to by asi obraz nebyl stabilni. Ovladace mas nainstalovane original co byly ke karte nebo stazene aktualni z netu? Jinak me nic nenapada :(
Odpovědět0  0
kaocko | 26.10.201015:32
Jedu na Catalystech 10.10. Ovsem stahoval jsem verzi s takovou tou omackou kolem. Stahnu ciste ovladace, jeslti to nahodou nedela CCC. Jinak uz opravdu nevim...
Odpovědět0  0
Myschak | 26.10.201015:49
OK, tak pak dej vedet, zda se podarilo nejak vyresit. Vzhledem k tomu, ze o tehle karte taky uvazuji, by me to celkem zajimalo....
Odpovědět0  0
Danx | 26.10.201010:03
S jakym monitorem a brylemi to funguje a hral uz na tom nekdo neco ja zatim videl jen reseni od nVidia.
Odpovědět0  0
JanKuchar (5) | 25.10.201022:03
Ačkoliv jsem vždycky fandil zelenému táboru a nVidii jsem dával přednost, musím říct, že během tak cca roku se situace postupně otáčí o 180 stupňů. Už od HD5000 má podle mě AMD navrch. Byl jsem nadšený z odražení útoku vychytanou gtx460, ale následující tah AMD byl podle mě famózní. Myslím, že nVidia bude mít čím dál větší problém. Trochu se ale obávám situace, pokud se z AMD stane monopol, co bude s cenami...
Odpovědět0  0
NRX | 26.10.201011:38
K monopolu má ešte asi ďaleko. Ale vďaka tomu, že AMD nasadila agresívne ceny už pri HD 48xx voči GTX 260­/280 sme si mohli práve kúpiť lacnejšie grafiky od oboch výrobcov ­(každú podľa chuti­), lebo nVidia po vydaní HD 48xx musela náležite zlacniť svoje grafiky.

Keby AMD vtedy nenasadilo také nízke ceny, tak obaja výrobcovia by predávali drahšie, z vyššou maržou a my ich museli kupovať s takou cenou.
Odpovědět0  0
pepca23 | 25.10.201021:07
Muzu vas ujistit ze aplespon tady v UK je cena GTX 470 o neco nizsi nez 6870..prave se rozhoduji mezi temito dvema kartama. K 470 tu davaji zdarma Mafia 2 a k HIS 6870 davaji CoD Modern W2. Jinak obe maji ceny okolo 200?. V jednom shopu se dala koupit Sapphire 6870 za 176? ale bylo to vyprodane za par dni, takze ted si obchodnici masti kapsu...bohuzel
Odpovědět0  0
daved.d | 25.10.201023:07
Tak GTX470 neber kup radeji HD6870 ma mensi spotrebu, ceny jsou podobne, jelikoz GTX470 uz slevnila na ca 5500,-
Odpovědět0  0
NRX | 26.10.20107:14
Do GTX 470 by som išiel jedine, že by ma netrápila spotreba ­(65W v záťaži nie je málo!­), hluk a teplo, ktoré karta produkuje a strašne, strašne ale STRAŠNE by som chcel PhysX ­(v súčasnosti je cez nVidia GPU akcelerovaných cez PhysX len +­/­- 8 normálnych hier!!! ­- viď: http:­/­/physxinfo.com­/?f=gpu#games­).

Keby si ho strašne chcel, tak by som asi radšej zvolil HD6870 ­(fajn výkon­/cena­/spotreba­) + GTS450 ­(nízka spotreba v Idle­).

Podľa mňa GTX 470 nemá moc čo ponúknuť.
Odpovědět0  0
Danx | 25.10.201015:36
Momentalne mam ATI4850 a setril jsem na 5850 co ted? Koupit 6870? ­(6850 si asi moc nepolepsim ze, ikdyz stoji polovic?­) Nebo cekat na 59xx? ­/pretaktovavat vzadnem pripade nehodlam takze toto hledisko neberte v uvahu/
Odpovědět0  0
Petr Štefek (1098) | 25.10.201015:43
Pak vem 6870, která je rychlejší než HD 5850 bez OC.
Odpovědět0  0
buzuluq | 25.10.201015:45
tak i s hd 6850 si rozhodně polepšíš :)
Odpovědět0  0
jannovack | 25.10.201016:09
Radeon HD4850 odpovídá výkonem zhruba HD5750 a ten je pomalejší než HD5770, takže HD6850 je rozhodně solidnímm upgradem, ale to by byla už i GTX460­-768MB.

Osobně jsem již HD6850 od Asusu objednal, tak jsem zvědav, až dorazí...:­-)
Odpovědět0  0
buzuluq | 25.10.201016:26
a kde mohu­-li se optat? a cena? dostupnost? díky :)
Odpovědět0  0
jannovack | 25.10.201020:30
Objednal jsem jí na alze, ale zatím tam visí, že přijímají předobjednávky, takže to může trvat nějaký den či dokonce týdny...:­-­)
jinak na czc.cz se dneska mihnul jeden Sapphire, ale ten dává záruku pouze 2 roky, kdežto Asus roky tři...
Odpovědět0  0
daved.d | 25.10.201023:09
Proc ji nekoupis tam kde je skladem za ca 5800,­- nebo ti Alza da tak super cenu ? Bych se divil.
Odpovědět0  0
jannovack | 26.10.20107:31
Tady došlo k nedorozumění, mám objednán HD6850, nikoliv HD6870...:­-)
Odpovědět0  0
buzuluq | 26.10.20108:10
a kde je skladem? :)
Odpovědět0  0
jannovack | 26.10.20109:45
Skladem nevím, jak jsem psal, včera se mihnul na czc.cz jeden Sapphire a na alze měli údajně 1­-2 Gigabyty na cestě.

Na té Alze mám předobjednávku, ale když by byly skladem jinde dřív, tak to klidně zruším...:­-)
Odpovědět0  0
marek p (25) | 25.10.201017:37
Pro jednoduchou představu je HD6850 výkonem srovnatelná s GTX285.
Odpovědět0  0
Macekk | 26.10.201018:27
Ahoj , taky mám vystláno na radeonku HD 6870 v PC mám hodně starou grrafiku ati 9600 pro :­) tak by to chtělo trochu změnu.
Odpovědět0  0
Pjenyks | 25.10.201012:17
Proč stačí kvalitní 450­-500W zdroj, když vaše testovací sestava s přetaktovaným čtyřjádrem měla v záteži spotřebu 280W ? To stačí obyčejný 400W, nebo opravdu kvalitní 350W nebo ne ?
Odpovědět0  0
Petr Štefek (1098) | 25.10.201012:18
Čím více je zdroj zatížený, tím více se musí chladit a tím více se točí větrák = hluk a snížení životnosti.
Odpovědět0  0
Pjenkys | 25.10.201013:08
Samozřejmě, ale když mám teď 400W fortron 80+ bronze a Core 2 Duo procesor, tak je to úplně bez problémů a nemusím běžet do obchodu pro nový. Tak, jak jste to napsali to vyvolává pocit, že bez 500W zdroje si nezahraju, přitom v nouzi by se dal použít i 300W.
Odpovědět0  0
Petr Štefek (1098) | 25.10.201013:18
Záleží na konkrétní sestavě samozřejmě a jejím příkonu.
Odpovědět0  0
NRX | 26.10.20107:01
Ísť so zdrojom na doraz by som moc neodporúčal. Radšej naddimenzovaný ako na doraz.

Pozri si túto kalkulačku a poznámku č. 4:
http:­/­/www.extreme.outervision.com­/psucalculatorlite.jsp

4­) Electrolytic capacitor aging. When used heavily or over an extended period of time ­(1+ years­) a power supply will slowly lose some of its initial wattage capacity. We recommend you add 10­-20% if you plan to keep your PSU for more than 1 year, or 20­-30% for 24­/7 usage and 1+ years.
Odpovědět0  0
Michal112 | 4.11.201011:42
Je to tak, dnes jsem si prines Radeon 6870 domu. Na prvni pohled me prekvapilo, jaka je to velka krava ­(byl jsem zvykly na 5770­), na druhy pohled me vydesily dva konektory na pridavne napajeni. Nicmene po prvnich testech v 3D marku to vypada, ze to muj 400W zdroj snad utahne v pohode. Zatim jede vse bez problemu, uvidime pri dlouhodobejsim zatizeni.
Co se tyce sestavy mam Intel Core 2 Due E8200 pretaktovany na 3,6 GHz + 2 x Hdd a interni soundblaster, uvidime, jak se to bude tvarit, az tam popripojuju jeste na USB externi disky, ale doufam, ze v pohode. Ten procesor je nastesti pomerne malo zravy, tak snad celek nebude zrat vic nez neco okolo 300W.
Odpovědět0  0
Jirka123456 | 3.11.201023:11
Prominte, ale to je uplny blabol. Kazdy zdroj ma nejakou ucinnost ­(ktera se meni s odberem­), u modernich zdroju je to pomerne konstantni, u tech lepsich rekneme mezi 85­-93 procenty. Takze staci vzit aktualni odber a je jasne, kolik wattu je odpadni teplo. Pak uz je naprosto trivialni vzit rekneme 1000w zdroj a podle charakteristiky spocitat, kolik odpadniho tepla udela pri odberu treba 300w a kolik odpadniho tepla udela treba 400w zdroj. A jaky bude zaver? Ze zalezi na ucinnosti konkretniho zdroje, v zadnem pripade nelze tvrdit, ze se lepe bude chladit silnejsi zdroj. Tedy je daleko lepsi koupit zdroj kvalitni, s vysokou ucinnost, nez zbytecne silny. Cili pokud sestava zere 300w, tak 500w zdroj staci AZ AZ.
Odpovědět0  0
16cmfan (11) | 25.10.201011:22
Krásna recenzia ­- taká, na aké som zvyknutý, bravo SHW ­- snáď len malá pidi chybka v tabuľke viz. odkaz ­- http:­/­/postimage.org­/image­/mk3b5rj8/
Odpovědět0  0
boboe (123) | 25.10.20109:44
Musím říct, že jsem byl k informacím, které o kartách HD6000 slýchám už dva měsíce, značně skeptický. Tušil jsem, že HD6800 budou výkonnější než HD5700, ale to, že budou úspěšně šlapat na paty HD5800, to jsem nečekal.

Myslím, že v táboře zelených vládne smutek, protože proti AMD mohou postavit jen GTX460 a s hodně přimhouřenýma očima i GTX470. Karta GTX580 je spíše teoretická úvaha a těžko říct, zda by 2x470 mohlo vůbec fungovat na taktech umožňující konkurovat 2x6850 či budoucí dvojici Cypressů.
Odpovědět0  0
Petr Štefek (1098) | 25.10.20109:48
Tragické to není. Nvidia může zlevnit GTX 460 1024 na nějaké 4 tisíce a GTX 470 na 5500 a zase bude vše ok.
Odpovědět0  0
Iron_Storm (30) | 25.10.201010:30
ale to jsou daleko drazsi jadra nez ta od amd.. nvidia pak bude mit nozkou marzi, zatimco amd prumernou.. a rozdil ve spotrebe 470 vs. 6870 je obrovsky.. jsem zvedavej na 6970
Odpovědět0  0
Petr Štefek (1098) | 25.10.201010:36
Jasně to je logické...nicméně do cenotvorby a marží jednotlivých firem fakt nevidíme.
Odpovědět0  0
Logout (91) | 25.10.201012:52
Nedivil bych se, kdyby odpověďí bylo zlevnění 460 ­- kde je prostor slušnej a uvedení 580. IMHO ta bude něco jako 480 vylepšená o upgrady v 460.
Odpovědět0  0
Petr Štefek (1098) | 25.10.201012:57
Pokud zrhuba vím, tak GTX 580 by měla mít 2xGF100, což si sice nedokážu představit, ale v uvedení nějaké refreshe GF100 bych nedoufal.
Odpovědět0  0
boboe (123) | 25.10.201013:17
Souhlas. GF100 se nepovedlo a nVidia si prostě nemůže dovolit babrat se s ním neustále dokola. Co potřebují je co nejrychleji uvést nový konkurenceschopný čip, který konstrukčně opustí vše, co bylo na GF100 špatné. A vývoj takového čipu, to chce nějaký čas. Proto se mi jeví jakékoli snahy o přepracování GF100 jako nebezpečné plýtvání časem, který by potom mohl chybět. Zkrátka s příchodem 28nm výroby musí mít nVidia připravený nový čip, jináč nabere další zpoždění vůči AMD ­(to na další generaci na plánovaném 28nm procesu už dávno pracuje­).

Mimochodem, pár pokusů o 2xGTX470 už tu od některých výrobců bylo. Ovšem skončilo to jen na papíře, případně nějakých prototypem ­- skončilo to vždy na problémech cena, spotřeba teplota.
Odpovědět0  0
NRX | 25.10.20107:41
Tak, presne na toto porovnanie som čakal ;­-­)

Pre doplnenie parametre z Wiki:
GeForce GTX 470 ­(March 26, 2010­)
Jadro, technológia, veľkosť: GF100, 40nm, 529mm2
Tranzistory; spotreba: 3 bilióny; 215W
Uvádzacia cena: $349

Radeon HD 6870 ­(October 22, 2010­)
Jadro; technológia; veľkosť: Barts XT; 40nm; 255mm2
Tranzistory, spotreba: 1,7 bilióna; 151W
Uvádzacia cena: $239

Kráááásne vidieť ako nVidia ­"zvláda­" svoje obrie jadrá ­(aj napriek tomu, že je o 7 mesiacov staršie ako AMD­) ;­-)
Odpovědět0  0
marek p (25) | 25.10.20107:23
Sice je výkonná jako gtx470.Lepší volbou je však mírně pomalejší zato podstatně levnější hd6850.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.